a Bizottság a tárgykörrel kapcsolatosan egyértelműen kockázatalapú megközelítést javasol.
Ez lényegében azt jelenti, hogy egy adott mesterséges intelligencia alkalmazását főszabály szerint „magas kockázatúnak” kell tekinteni, különösen abban az esetben, ha alkalmazására olyan érzékeny területeken kerül sor, mint például a közlekedés, az egészségügyi ellátás, vagy az energiaszektor. Szintén fontos szempont a magas kockázatú besorolás során az, hogy a mesterséges intelligencia alkalmazása hordozhatja-e sérülés, halál, jelentős anyagi vagy nem vagyoni kár kockázatát.
„A mesterséges intelligencia (MI) számos olyan potenciális kockázattal is jár, mint az átláthatatlan döntéshozatal, a nemi és más alapú megkülönböztetés, a magánéletünkbe való betolakodás vagy a bűncselekmények céljából történő felhasználás.” – áll a dokumentumban.
Az Európai Bizottság bizonyos területeken megengedő a puha jogi eszközökkel kapcsolatban
A tagállamok javaslata számos puha jogi alternatívát felölel, s a Bizottság februári fehér könyvéből kiderül az is, hogy a mesterséges intelligencia bizonyos formái esetében ezek biztonságos alkalmazhatóságára a testület is lát lehetőséget.
Egyike e megoldásoknak az MI-alkalmazások önkéntes címkézése, de csak a mesterséges intelligencia azon formáival szemben, amelyek nem minősülnek „nagy kockázatúnak”.
Az önkéntes címkézési rendszer bevezetése keretében a gazdasági szereplők dönthetnének úgy, hogy önkéntes alapon alávetik maguknak azoknak a kereteknek, amelyek révén igazolható, hogy az általuk alkalmazott MI-szolgáltatás biztonságos és megbízható.
„A címkézési rendszerben való részvétel önkéntes lenne, de ha a fejlesztő vagy az alkalmazó a címke használata mellett dönt, a követelmények rá nézve kötelező erejűek lennének.”
– fogalmaz a Bizottság.
Németország szigorúan szabályozna
A tisztán jogi kötőerő nélküli, tehát meglehetősen szabadelvű és engedékeny megoldást szorgalmazó tagállamok között olyan uniós „erős emberek” is szerepelnek, mint Franciaország, Hollandia, Dánia vagy Svédország.